预计机器人将取代诸如家务之类的琐碎任务。其中一些任务包括执行的无毛线操作,而无需抓住对象。非忧虑的操作非常困难,因为它需要考虑环境和对象的动态。因此,模仿复杂行为需要大量的人类示范。在这项研究中,提出了一种自我监督的学习,该学习认为动态以实现可变速度进行非骚扰操作。所提出的方法仅收集自主操作期间获得的成功动作数据。通过微调成功的数据,机器人可以学习自身,环境和对象之间的动态。我们尝试使用对24个人类收集的培训数据训练的神经网络模型来挖掘和运输煎饼的任务。所提出的方法将成功率从40.2%提高到85.7%,并成功完成了其他物体的任务超过75%。
translated by 谷歌翻译
在本研究中,我们提出了一种模拟绘图/研磨轨迹的局部和全局特征的方法,通过分层变分自动化器(VAES)。通过将两个单独训练的VAE模型组合在分层结构中,可以为本地和全局特征产生高再现性的轨迹。分层生成网络使得能够生成具有相对较少量的训练数据的高阶轨迹。模拟和实验结果表明了该方法的泛化性能。此外,我们确认可以通过改变学习模型的组合来生成过去从未学到过的新轨迹。
translated by 谷歌翻译
通过使用传统的控制器大学难以实现现实世界中的机器人运动的产生,并且需要高度智能处理。在这方面,目前正在研究基于学习的运动世代。然而,主要问题已经改善了对空间不同环境的适应性,但是没有详细研究操作速度的变化。在富有的接触任务中,能够调整操作速度尤为重要,因为在操作速度和力(例如,惯性和摩擦力)之间发生非线性关系,并且它会影响任务的结果。因此,在本研究中,我们提出了一种用于产生可变操作速度的方法,同时适应环境中的空间扰动。所提出的方法可以通过利用少量运动数据来适应非线性。我们通过用固定到机器人尖端的擦除作为富有的接触任务的示例,通过擦除一条线来通过擦除一条线来评估所提出的方法。此外,所提出的方法使得机器人能够比人类运营商更快地执行任务,并且能够接近控制带宽。
translated by 谷歌翻译
Distributed representations of words encode lexical semantic information, but how is that information encoded in word embeddings? Focusing on the skip-gram with negative-sampling method, we show theoretically and experimentally that the squared norm of word embedding encodes the information gain defined by the Kullback-Leibler divergence of the co-occurrence distribution of a word to the unigram distribution of the corpus. Furthermore, through experiments on tasks of keyword extraction, hypernym prediction, and part-of-speech discrimination, we confirmed that the KL divergence and the squared norm of embedding work as a measure of the informativeness of a word provided that the bias caused by word frequency is adequately corrected.
translated by 谷歌翻译
Measuring the semantic similarity between two sentences is still an important task. The word mover's distance (WMD) computes the similarity via the optimal alignment between the sets of word embeddings. However, WMD does not utilize word order, making it difficult to distinguish sentences with large overlaps of similar words, even if they are semantically very different. Here, we attempt to improve WMD by incorporating the sentence structure represented by BERT's self-attention matrix (SAM). The proposed method is based on the Fused Gromov-Wasserstein distance, which simultaneously considers the similarity of the word embedding and the SAM for calculating the optimal transport between two sentences. Experiments on paraphrase identification and semantic textual similarity show that the proposed method improves WMD and its variants. Our code is available at https://github.com/ymgw55/WSMD.
translated by 谷歌翻译
非自动回旋(NAR)模型的计算能力比自回归模型较少,但牺牲生成质量可以生成句子。先前的研究通过迭代解码解决了这个问题。这项研究建议将最近的邻居用作NAR解码器的初始状态,并迭代编辑。我们提出了一种新颖的培训策略,以了解有关邻居的编辑操作,以改善NAR文本生成。实验结果表明,所提出的方法(邻域)在JRC-ACQUISIE EN-DE DATASET上获得了更高的翻译质量(比香草变压器高1.69点(比香草变压器高1.69点),而解码迭代率较少(少于十分之一)使用最近的邻居翻译。我们还确认了所提出的方法对数据到文本任务(Wikibio)的有效性。此外,所提出的方法在WMT'14 EN-DE数据集上优于NAR基线。我们还报告了建议方法中使用的邻居示例的分析。
translated by 谷歌翻译
变压器的令人印象深刻的性能归因于自我注意力,在每个位置都考虑了整个输入之间的依赖性。在这项工作中,我们改革了神经$ n $ gram模型,该模型仅着眼于每个位置的几个周围表示,其多头机制如Vaswani等人(2017年)。通过对序列到序列任务的实验,我们表明,用多头神经$ n $ gram在变压器中替换自我注意力可以比变压器实现可比性或更好的性能。从对我们提出的方法的各种分析中,我们发现多头神经$ n $ gram是互补的,它们的组合可以进一步提高香草变压器的性能。
translated by 谷歌翻译
分类是机器学习中的常见任务。随机特征(RFS)作为基于内核方法的可扩展学习算法的中心技术,并且最近提出的优化随机特征取决于模型和数据分布,可以显着减少并证明最小化所需的功能数量。但是,现有的对使用优化RF的分类研究在对每个优化的RF进行采样时都遭受了计算硬度。此外,它未能达到其他最先进的内核方法在低噪声条件下实现的指数快速误差速度。为了克服这些放缓,我们在这里构建了一种通过量子机学习加速的优化RF的分类算法(QML),并研究其运行时以阐明整体优势。我们证明,即使使用优化的RFS,我们的算法也可以在低噪声条件下达到指数误差的收敛。同时,我们的算法可以利用由于QML而没有计算硬度的特征数量的显着减少的优势。这些结果发现了QML在基于领先的内核分类算法加速的有前途的应用,而不会破坏其广泛的适用性和指数误差速度。
translated by 谷歌翻译
It is well-known that typical word embedding methods such as Word2Vec and GloVe have the property that the meaning can be composed by adding up the embeddings (additive compositionality). Several theories have been proposed to explain additive compositionality, but the following questions remain unanswered: (Q1) The assumptions of those theories do not hold for the practical word embedding. (Q2) Ordinary additive compositionality can be seen as an AND operation of word meanings, but it is not well understood how other operations, such as OR and NOT, can be computed by the embeddings. We address these issues by the idea of frequency-weighted centering at its core. This paper proposes a post-processing method for bridging the gap between practical word embedding and the assumption of theory about additive compositionality as an answer to (Q1). It also gives a method for taking OR or NOT of the meaning by linear operation of word embedding as an answer to (Q2). Moreover, we confirm experimentally that the accuracy of AND operation, i.e., the ordinary additive compositionality, can be improved by our post-processing method (3.5x improvement in top-100 accuracy) and that OR and NOT operations can be performed correctly.
translated by 谷歌翻译
了解培训实例对神经网络模型的影响导致提高解释性。但是,评估影响是困难和效率低下,这示出了如果未使用训练实例,则显示如何更改模型的预测。在本文中,我们提出了一种估计影响的有效方法。我们的方法是通过丢弃的启发,零掩模了子网并阻止子网学习每个训练实例。通过在丢弃掩码之间切换,我们可以使用学习或未学习每个培训实例的子网并估计其影响力。通过对分类数据集的BERT和VGGNET的实验,我们证明了该方法可以捕获训练影响,增强误差预测的可解释性,并清除培训数据集以改善概括。
translated by 谷歌翻译